72 research outputs found

    Depth Image Processing for Obstacle Avoidance of an Autonomous VTOL UAV

    Get PDF
    We describe a new approach for stereo-based obstacle avoidance. This method analyzes the images of a stereo camera in realtime and searches for a safe target point that can be reached without collision. The obstacle avoidance system is used by our unmanned helicopter ARTIS (Autonomous Rotorcraft Testbed for Intelligent Systems) and its simulation environment. It is optimized for this UAV, but not limited to aircraft systems

    Combining Occupancy Grids with a Polygonal Obstacle World Model for Autonomous Flights

    Get PDF
    This chapter presents a mapping process that can be applied to autonomous systems for obstacle avoidance and trajectory planning. It is an improvement over commonly applied obstacle mapping techniques, such as occupancy grids. Problems encountered in large outdoor scenarios are tackled and a compressed map that can be sent on low-bandwidth networks is produced. The approach is real-time capable and works in full 3-D environments. The efficiency of the proposed approach is demonstrated under real operational conditions on an unmanned aerial vehicle using stereo vision for distance measurement

    Onboard Mission Management for a VTOL UAV Using Sequence and Supervisory Control

    Get PDF
    This chapter addresses the challenges of onboard mission management for small, low flying UAVs in order to reduce their dependency on reliable remote control. The system presented and tested onboard an unmanned aerial vehicle (UAV) provides levels of autonomy, scalable at runtime either by the operator or due to the absence of a data link. This way, it is a feasible approach towards autonomous flight guidance within the low-altitude domain (e.g. urban areas) where unpredictable events are likely to require onboard decision-making. In the following sections the problems of onboard mission management, embedded high level architectures and their implementation issues are discussed. The design of a onboard Mission Management System for a test platform with vertical take-off and landing (VTOL) capabilities is presented, followed by discussions of the implemented system and a research outlook

    Stereobildbasierte Kollisionsvermeidung fĂŒr einen unbemannten Kleinhubschrauber

    Get PDF
    Die Arbeit beschreibt die Entwicklung einer Strategie zur Kollisionsvermeidung unter Verwendung einer Stereokamera. Sie ermöglicht die dreidimensionale Rekonstruktion der Umgebung, damit die Messung von Entfernungen und letztendlich die Erkennung von Hindernissen und hindernisfreien Bereichen. Das implementierte Verfahren wird in einer Simulationsumgebung getestet, die die originale Hardware des Hubschraubers verwendet und dessen Flugeigenschaften nachbildet. So kann fĂŒr einen realen Flug abgeschĂ€tzt werden, wie sich der Helikopter bei Hindernissen verhĂ€lt und inwieweit Kollisionen vermieden werden können

    KI als SchlĂŒsseltechnologie fĂŒr Mustererkennung und Situationsbewusstsein - Wie erhĂ€lt das Fahrzeug das erforderliche Wissen?

    Get PDF
    Zur Umfeldwahrnehmung mit Kameras und anderen Sensoren werden intelligente und selbstlernende Verfahren als SchlĂŒsseltechnologie angesehen. Entsprechende Trainingsdaten vorausgesetzt, können mit Deep Learning und Neuronalen Netzen Fahrzeuge und andere Verkehrsobjekte bspw. in Kamerabildern detektiert, verortet und prĂ€diziert - sowie in einen verkehrlichen Gesamtkontext gebracht werden. Zudem ist dies eine Grundlage zur Bestimmung der Eigenposition relativ zum Verkehrsgeschehen und unabhĂ€ngig von störanfĂ€lligen Quellen wie Satellitennavigation. Der Vortrag ist ein Auszug aus den aktuellen Arbeiten des DLR im Rahmen der KI-Projektfamilie aus der VDA-Leitinitiative Automatisiertes Fahren. Thematisiert wird die Forschungsfrage, wie KI-Systeme effizient und möglichst vollstĂ€ndig mit dem erforderlichen Wissen ausgestattet werden können, um sie zur Umfeldwahrnehmung fĂŒr das automatisierte Fahren einsetzen zu können

    Optische Navigationsverfahren in großskalierten Umgebungen

    No full text
    Diese Arbeit betrachtet Alternativen zu satellitengestĂŒtzter Navigation als ErgĂ€nzung zu gekoppeltem GNSS/INS. Vorgestellt wird ein optisch gestĂŒtztes Lokalisierungsverfahren fĂŒr den Einsatz bei kleineren bzw. unbemannten Luftfahrzeugen in unbekannten Umgebungen und bei FlĂŒgen ĂŒber grĂ¶ĂŸere Entfernungen im Kilometerbereich. Technischer Kern ist ein kamerabasiertes Verfahren zur Lokalisierung und Kartierung (SLAM). Hierbei werden aus Bildinhalten 3D-GelĂ€ndemerkmale extrahiert. Durch Georeferenzierung aus vorhergehenden Positionsdaten können diese dann fĂŒr die weitere Lokalisierung der Kamera und damit des Luftfahrzeugs verwendet werden. Zur Erhöhung der Genauigkeit werden die Informationen der Kamerabilder mit Entfernungsmessungen kombiniert. Geeignet sind hier insbesondere Sensoren wie Lidar und Radar. Die Anwendbarkeit des Ansatzes wird anhand von Daten aus Flugversuchen demonstriert - gezeigt werden Flugversuche mit bemannten und unbemannten VersuchstrĂ€gern. Die relative optische Navigation erreicht eine Ungenauigkeit von etwa 1-6% Fehler bezogen auf die geflogene Strecke, was in etwa in der GrĂ¶ĂŸenordnung der verwendeten Entfernungssensoren liegt. DarĂŒber hinaus geht der Artikel auf spezielle Probleme der Sensorik sowie auf die Grenzen der Anwendbarkeit optischer Navigationsverfahren mit Luftfahrzeugen ein

    Optisch gestĂŒtzte Sensorfusion zur Navigation mit FlĂ€chenflugzeugen (OgN 1)

    No full text
    Zielrichtung dieser Studie ist die Untersuchung von optisch gestĂŒtzten Navigationsverfahren fĂŒr Anwendungen mit unbemannten FlĂ€chenflugzeugen. Dazu werden zunĂ€chst typische Missionsprofile (u.a. Flughöhen, Geschwindigkeiten, Umgebungsbedingungen, mögliche Voraussetzungen und EinschrĂ€nkungen) fĂŒr LFZ <150 kg MTOW betrachtet und bestimmt. FĂŒr die herausgearbeiteten Szenarien wird dann erarbeitet, inwieweit LFZ-seitig Sensordaten sinnvoll zu verarbeiten sind, bzw. welche Anforderungen an die Sensoren fĂŒr eine erfolgversprechende optisch gestĂŒtzte Navigation existieren. Der Fokus liegt hierbei auf der Beurteilung von Kamerasystemen und Bildverarbeitungsverfahren. Darauf basierend werden Demonstrationsszenarien erstellt, mit denen existierende oder noch zu entwickelnde Algorithmen und Prinzipien evaluiert werden können. Abschließend wird ein gewĂ€hltes Demonstrationsszenario im Flugversuch umgesetzt, bei dem Sensordaten (Kamera, IMU, GNSS) aufgenommen und mit Hilfe der existierenden Algorithmen evaluiert werden. Dabei wird die Eignung dieser Daten zur Navigation, insbesondere unter BerĂŒcksichtigung von GNSS-SignalausfĂ€llen und der Driftkompensation mit optischen Verfahren, untersucht. Das Ergebnis sind optisch bestimmte Trajektorien und deren Bewertung

    Optische Verfahren in der UAV-FĂŒhrung

    No full text
    Der Vortrag fasst die AktivitĂ€ten im Bereich der optischen Navigation und Gefahrenerkennung sowie sonstigen Bildverarbeitungsverfahren zusammen, die von 2004-2009 in Zusammenhang mit dem Hubschraubersystem ARTIS am DLR-Institut fĂŒr Flugsystemtechnik durchgefĂŒhrt wurden

    Optisch gestĂŒtzte Sensorfusion zur Navigation mit FlĂ€chenflugzeugen 2 (OgN-2)

    No full text
    Die vorliegende Studie basiert auf den Erkenntnissen der VorgĂ€ngerstudie „OgN“ (DLR-IB 111-2014/47), welche im Auftrag der WTD61 bearbeitet wurde. Basierend auf der dort erfolgten Evaluation zur Übertragbarkeit bestehender optischer Navigationsmethoden auf FlĂ€chenflugzeuge erfolgen in dieser Studie weitere Versuche, jedoch mit verbesserter Konfiguration. Die wesentlichen Studieninhalte sind die Integration eines Radarhöhensensors in Hard- und Software, die Anpassung des Kamerasystems fĂŒr eine bessere Bestimmung der Eigenbewegung, sowie die DurchfĂŒhrung von Flugversuchen mit den neuen Sensoren und der dafĂŒr angepassten Software. VersuchstrĂ€ger ist das unbemannte Flugzeug „Prometheus“ (30 kg MTOW) des DLR-Instituts fĂŒr Flugsystemtechnik. Bei den Versuchen werden Sensordaten (GNSS, IMU, Magnetometer, Kamera, Radar) aufgezeichnet und anschließend mit Hilfe der speziell fĂŒr diesen Zweck optimierten Navigationsalgorithmen evaluiert. Fokus ist die Bewertung der Umgebungssensoren Kamera und Radar zur Kompensation von GNSS-SignalausfĂ€llen wĂ€hrend des Fluges

    SLAM und Optische Navigation fĂŒr automatisierte Fahrzeuge

    No full text
    In den vergangenen Jahren hat sich insbesondere in der Robotik eine Vielzahl von alternativen Navigationsverfahren etabliert, die bei temporĂ€rem GNSS-Ausfall oder bspw. im Innenbereich Anwendung finden. Hierzu gehören insbesondere die Verfahren visuelle Odometrie und Simultaneous Localization And Mapping (SLAM), bei denen eine Bewegungsbestimmung bzw. Positionierung relativ zu Umgebungsmessungen mit Lidar, Radar, Kamera oder weiteren Sensoren erfolgt. Das DLR-Institut fĂŒr Verkehrssystemtechnik untersucht derartige Verfahren fĂŒr das automatisierte Fahren, wobei eine umfangreich ausgestattete Fahrzeugflotte zur VerfĂŒgung steht. Der Beitrag gibt einen Überblick ĂŒber die Thematik, zeigt Versuchsergebnisse, Grenzen und Herausforderungen (u.a. Fehlerakkumulation, Verhalten in dynamischen Umgebungen) und geht auf Anwendungsmöglichkeiten im Verkehrssektor ein, wie Fahrten im Innenbereich, z.B. in ParkhĂ€usern
    • 

    corecore